线性分类器
一个线性分类器的基本形式如下所示:
$$f(x_i,W,b)=Wx_i+b (1)$$
在上面的公式中,如果是对图像经行分类,$x_i$表示对一张图片展开成一个列向量维数为[D,1],矩阵W维数为[K,D],向量b维数为[K,1]。参数W通常成为权值,b为偏置。
导入数据
1 | import numpy as np |
(1293, 64) (1293,)
(144, 64) (144,)
(360, 64) (360,)
1 | classes = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9'] |
比如在数字手写识别数据集中,要分类[0-9]共十类数字手写图片,每张图片的像素为8×8,如上图所示。分类器的目的就是通过训练得到参数W,b,应为我们知道输入数据是 $(x_i,y_i)$ ($x_i$是输入图片像素值,$y_i$为对应类别号)是给定而且是固定的,我们的目标就是通过控制参数W,b来尽量拟合公式(1), 使得公式(1)能通过参数对输入数据$x_i$计算得到正确的$y_i$。
Bias trick,在公式(1)中有两个参数W,b,通过一个小技巧可以把这两个参数组合在一个矩阵中,通过把$x_i$增加一维,设置值为1,就可以把公式(1)写为:
$$f(x_i,W)=Wx_i$$
原理如下图所示:
1 | X_train = np.hstack([X_train, np.ones((X_train.shape[0], 1))]) |
(1293, 65) (144, 65) (360, 65)
损失函数
上面说到使用公式$f(x_i,W)=Wx_i$对输入图片经行每一类的打分,但是开始时线性分类器预测的打分和我们真实的类别可能相差比较远,我们需要一个函数来表示真实的分数和分类器所计算到的分数之间的距离,这个函数就叫损失函数。
比如说我们输入一张图像像素值$x_i$,其真实类别为$y_i$,我们通过分类器计算每类的得分 $f(x_i,W)$ 。 例如 $s_j=f(x_i,W)_ j$ 表示分类器对输入数据 $x_i$ 预测为第j类的可能性,那么损失函数就可以定义为:
$$L_i=\sum _{j\neq y_i}max(0,s_j-s_{y_i}+\Delta) (2)$$
假如我们有三类通过分类器得到每类的分数为[13,-7,11],并假设第一类是正确的类别($y_i=0$), 并假设 $\Delta=10$ ,我们可以通过上述公式计算得到损失函数值为:
$$L_i=max(0,−7−13+10)+max(0,11−13+10)$$
我们可以看到第一个max函数求得的值为0,我们可以理解为对第一类的打分13和第二类的打分-7之间的距离为20已经超过我们设置的间隔10,所以不需要惩罚,即这一部分计算得到的损失函数值为0;第一类与第三类的打分距离为2,小于设定的间隔10,所以计算得到损失函数为8。通过上诉例子我们发现损失函数就是用来描述我们对预测的不满意程度,如下图所示,如果预测到的真实类别的分数与错误类别的分数之间的距离都大于我们设置的阈值,则损失函数的值为0。
这种损失函数就称为hinge loss,因为$s_j=w_j^Tx_i$ , $w_j$为矩阵W的第$j$行展成的列向量,所以公式(2)可以写为:
$$L_i=\sum _ {j\neq y_i}max(0,w_j^Tx_i-w_{y_i}^Tx_i+\Delta) (3)$$
正则化
上述损失函数用来约束预测打分和真实打分之间的区别,我们好需要一些参数来约束参数矩阵W值的大小,L2正则如下所示,会惩罚过大的参数值:
$$R(W)=\sum _ k \sum _ lW _ {k,l}^2$$
所以对整个数据集总的损失函数如下所示:
$$L= \frac {1}{N} \sum _ i \sum _ {j \neq y_i} [max(0, f(x_i;W) _ j -f(x_i;W) _ { y_i} +\Delta)]+\lambda\sum _ k \sum _ lW _ {k,l}^2 $$
梯度下降
对公式(2)的 $w_{y_i}$ 求导,可以得到:
$$\nabla _ {W _ {y _ i}}L_i =- (\sum _ {j \neq y_i}1(w_j^Tx_i-w _ {y_i}^Tx_i + \Delta >0))x_i$$
其中1为指示函数,当括号里的条件成立是函数值为1,否则为0。所以上述对正确类别所对应分类器权值的求导结果就是把错误类别的打分与正确类别打分间距小于阈值的个数再乘以输入数据$x_i$。
对 $j\neq y_i$ 的其他行,求导结果如下所示,也就是如果这一行所对应的滤波器打分相对于正确的类别分数间隔小于阈值,则对这一行求导所得就是 $x_i$
$$\nabla _ {W _ {j}}L_i =1(w_j^Tx_i-w _ {y_i}^Tx_i + \Delta >0)x_i$$
其中SVM的hinge loss以及梯度计算如下所示:
1 | def svm_loss_vectorized(W, X, y, reg): |
Softmax分类器
分类器相对于SVM分类器来说,增加了一个计算概率的过程,SVM选择得分最大的一类输出,Softmax把所有的得分转换为每一类的概率,如下公式所示:
$$P(y_i|x_i;W)=\frac{e^{f _ {y_i}}}{\sum_je^{f_j}}$$
其中$f_j$为分类器对每一类的打分。
Softmax 分类器的损失函数为cross-entropy loss,如下所示,其实就是正确类别概率取对数再乘以-1。
$$L_i = -\log\left(\frac{e^{f_{y_i}}}{ \sum_j e^{f_j} }\right) \hspace{0.5in} \text{或等于} \hspace{0.5in} L_i = -f_{y_i} + \log\sum_j e^{f_j}$$
Softmax 和 SVM分类器的联系区别如下图所示:
cross-entropy loss求导
对$w_{y_i}$:
$$\nabla _ {W _ {y _ i}}L_i =-x_i+p _ {y_i}x_i$$
对$w_j(j \neq y_i)$:
$$\nabla _ {W _ {y _ i}}L_i =p _ {j}x_i$$
其中 $p_{j}$ 为Softmax分类器输出为第 $j$ 类的概率。
Softmax的cross-entropy loss以及梯度计算如下所示:
1 | def softmax_loss_vectorized(W, X, y, reg): |
随机梯度下降
在大数据集的训练中,计算所有数据的损失函数只更新一次参数是很浪费的行为。一个通常的做法是计算一批训练数据的梯度然后更新,能用这个方法的是基于所以训练数据都是相关的假设,每一批数据的梯度是所有数据的一个近似估计。
1 | class LinearClassifier(object): |
训练SVM:
1 | svm = LinearSVM() |
iteration 0 / 400: loss 8.953550
iteration 100 / 400: loss 0.208299
iteration 200 / 400: loss 0.287735
iteration 300 / 400: loss 0.233046
0.940448569219 0.951388888889 0.952777777778
对线性分类器的直观解释
参数W的每一行可以理解为一个图像模板,每个类别的得分就是输入图片与每一行的图片模板内积的结果,看输出的图片最符合哪个图片模板,也就是最可能符合哪一类。也就是说通过训练,分类器的每一行学习到了每类图片的模板,如下图所示,线性SVM分类器学习到的每一类数字的模板图片。
1 |
|
1 | sf = Softmax() |
iteration 0 / 500: loss 2.301230
iteration 100 / 500: loss 0.362278
iteration 200 / 500: loss 0.361298
iteration 300 / 500: loss 0.352944
iteration 400 / 500: loss 0.365702
0.940448569219 0.951388888889 0.95
1 | w = sf.W[:-1,:] # strip out the bias |
(64, 10)
参考
CS231n: Convolutional Neural Networks for Visual Recognition.